Les savants tout au long de l’histoire humaine se sont toujours intéressés à la lumière, et cela depuis l’antiquité grecque. L’homme s’est ainsi confronté à l’énigme suivante : la lumière est-elle une onde, entité immatérielle tels les mouvements d’une vague sur l’eau, ou bien une particule ? Il est tout à fait remarquable que la réponse à cette question n’est apparue finalement que très récemment, et qu’elle pose encore aujourd’hui des difficultés conceptuelles même si mathématiquement le problème semble résolu une fois pour toute. Les grecques pensaient que l’œil envoyait un rayon vers l’objet regardé. En un certain sens, il privilégiait l’aspect ondulatoire de la lumière, même si cette notion est apparue beaucoup plus tard.
Au XVIIème siècle, Le grand savant Isaac Newton propose que la lumière soit constituée de particules, mais il est bien difficile de le prouver expérimentalement à cette époque. D’autant qu’au cours de ce siècle, R. Descartes et P. Huyghens entre autre aboutissent à la conclusion que pour expliquer les expériences d’optiques, il est nécessaire de considérer la lumière comme une onde. Il existera donc au XVIIIème siècle deux grands courants de pensée : les irréductibles de l’énorme apport scientifique de Newton, privilégiant l’aspect corpusculaire, comme Poisson, Laplace ou Biot, contre les « opticiens » qui ont besoin des ondes pour expliquer leurs expériences de diffraction ou d’interférence, tels Young, Malus, Fresnel ou Arago.
Au XIXème siècle, les choses se précisent. Maxwell propose ses fameuses équations en 1873, montrant que les ondes peuvent être décrites par un champ électrique et un champ magnétique qui se propagent. En 1885, H. Hertz montre expérimentalement que les ondes électromagnétiques peuvent effectivement être produites, transporter de l’énergie, et être captées par une antenne par exemple. L’aspect corpusculaire de la lumière semble une notion de plus en plus difficile à supporter. Mais le film est loin d’être terminé.Parallèlement à ces considérations ondulatoires se pose le problème conceptuel suivant : une onde a besoin d’un support matériel pour se propager, au même titre que le son à besoin de l’air, ou que la vague a besoin du liquide. Les savants imaginent donc que les ondes électromagnétiques se propagent grâce à un milieu qui sera appelé l’éther. La propagation de la lumière résulte donc des vibrations de ce milieu. Elle doit donc posséder une vitesse dans ce milieu et il s’en suit des réflexions tout à fait légitime de mécanique pure. Par exemple, l’éther étant dans un référentiel absolu de l’univers, comment se propage la lumière dans un référentiel se déplaçant par rapport à lui ? De façon tout à fait remarquable, les questions posées par l’hypothèse de l’éther ne vont pas amenées à résoudre immédiatement le problème de la lumière comme onde ou corpuscule, mais vont tout d’abord profondément modifier notre compréhension de l’espace et du temps.
L’expérience qui déclenche le processus de réflexion est sans nulle doute l’expérience d’interférence de Michelson et Morley. Si la terre se propage dans l’éther, il doit alors y avoir composition de la lumière se propageant dans l’éther avec la vitesse de rotation de la terre par exemple. Il est ainsi facile, en alignant tel ou tel bras de l’interféromètre par rapport à la direction de rotation de la terre, de changer les chemins optiques et de voir des images d’interférence qui dépendent de l’orientation de l’appareillage par rapport à la vitesse de la terre. Toutes les expériences mènent au même résultat, les imprécisions ne laissant plus aucun doute en 1895. La vitesse de la lumière n’est pas composable avec la vitesse de la terre, elle est la même quel que soit l’orientation de l’éther par rapport à la terre. Pour expliquer ce résultat expérimental, Lorentz, la même année, propose une transformation des coordonnées et du temps entre les deux référentiels, montrant ainsi que pour des vitesses proches de la vitesse de la lumière, la composition des vitesses n’est plus valable, et démontre ainsi qu’il est logique que Michelson et Morley n’aient rien vu. Les effets sont du 2ème ordre, et donc impossible à détecter avec leur appareillage. Mais en 1900, H. Poincaré va beaucoup plus loin. Ses considérations théoriques l’amène à penser qu’il n’ y a pas de corrections, et qu’il n’existe pas de référentiel absolu associé à l’éther. Il laisse tomber la notion d’éther, et montre que le temps n’est pas absolu au même titre que la notion de mesure des longueurs. En 1905, A. Einstein reprend les notions de Lorentz et de Poincaré dans son article célèbre établissant les bases de la relativité. Chose tout à fait étonnante, d’ailleurs notée par certains savants de l’époque, il ne cite ni Lorentz, ni Poincaré dans cet article, alors qu’il connaissait à coup sur leurs travaux. Il existe donc actuellement un réel débat historique sur la paternité de la relativité. Difficile de juger, mais on voit apparaître de plus en plus la terminologie « théorie de la relativité de Einstein - Poincaré ».
Résultat des courses, il n’y a plus d’éther, de milieu absolu nécessaire à la propagation des ondes électromagnétiques. Cela ne va-t-il pas dans le sens de l’existence de particule constituant la lumière ? Cet argument n’est évidemment pas suffisant pour convaincre les savants. Il faut du concret, et c’est encore H. Hertz, en 1895 soit la même année ou il montre que les ondes électromagnétiques transportent de l’énergie, qui montre expérimentalement que quelque chose cloche dans le formalisme ondulatoire de la lumière. En effet, impossible d’expliquer l’effet photoélectrique uniquement en terme d’énergie lumineuse transporté par l’onde. Pour certaines fréquences, l’énergie lumineuse est bien transmise aux électrons mais pas pour d’autres ! Einstein fait le pas en 1905 en supposant la lumière comme constituée de paquets d’énergie (de quanta) pouvant être transmis aux électrons : sa démarche privilégie nettement l’aspect corpusculaire de la lumière pour expliquer cette expérience. Il est intéressant de noter qu’il faudra des années à Einstein pour être lui-même convaincu du bien-fondé de son explication, les résultats de Millikan en 1916 asseyant définitivement les prédictions d’Einstein, comme nous l’avons vu au 1er chapitre. La notion de photon, particule constituant les ondes électromagnétique s’impose alors. Une 2ème expérience finit de convaincre les scientifiques de l’aspect corpusculaire des ondes électromagnétiques, l’expérience de diffusion inélastique de A. Compton. Il mettra plusieurs années à chercher une interprétation à ces résultats, basée sur le modèle de Bohr d’absorption et d’émission de photons, pour finalement traiter le problème en 1923 comme résultant d’un « choc » entre le photon et l’électron en appliquant les règles de conservation de l’énergie et de la quantité de mouvement pour les deux particules.
Mais pour autant la notion d’onde ne disparaît pas, et au contraire se confirme. Les savants connaissaient des ondes électromagnétique « invisibles » pour l’œil humain, comme les ondes infrarouges ou ultraviolettes. Mais W.K. Roentgen découvre de nouvelles ondes en 1895, appelés rayons X parce qu’ils étaient de nature inconnue. Max Von Laue utilise ces rayons X pour réaliser la première expérience de type fentes d’Young mais à l’échelle atomique : la diffraction sur un cristal est née. Il est donc indispensable de considérer les ondes électromagnétiques comme à la fois une onde et une particule. Comme l’indiquait N. Bohr, il est possible de décrire le résultat d’une expérience tantôt avec le formalisme ondulatoire, tantôt avec le formalisme corpusculaire, menant au concept de dualité onde – corpuscule. Ce concept atteint son paroxysme en 1923 après la parution des travaux de L. De Broglie : il fait une analogie parfaite entre l’énergie d’un photon et l’énergie de masse E=mc2 d’une part, et la vitesse d’une particule et la vitesse de groupe d’une onde d'autre part. Il étend ainsi la dualité onde - corpuscule à des particules massiques. Davisson et Germer apporte en 1927 la preuve expérimentale de cette approche, en faisant diffracter des électrons sur un cristal : les électrons se comportent comme des ondes ! Des années plus tard, après la découverte du neutron par J. Chadwick en 1932, et avec l’avènement des réacteurs nucléaires produisant des neutrons thermiques, des expériences de type fente d’Young seront réalisées avec des neutrons. Et la boucle se refermera après l’idée géniale de Kapitza et Dirac en 1933 : si l'infiniment petit peut être à la fois une onde et un corpuscule, pourquoi ne serait-il pas possible de faire diffracter des particules massiques par un réseau…lumineux ? Sur le papier, aucun problème, mais il faudra attendre 2001 pour que les effets soient mesurables, donnant des résultats en accord avec la théorie. De la même manière, les chercheurs du laboratoire Kastler – Brossel ont démontré expérimentalement un effet similaire au début de ce XXIème siècle, appelé trampoline optique. En produisant des atomes ultra-froids (de très faible vitesse), ils sont confrontés au cours de leurs expériences à l’effet de la pesanteur terrestre : les atomes produits un par un « tombent ». Pour palier ce problème, il « suffit » d’émettre un faisceau de lumière puissant qui les fait rebondir. Mais ce n’est pas tout, il est aussi possible de créer des interférences entre ces atomes ! La diffraction entre des atomes existe bel et bien.
Il est clair que cette dualité doit être le fondement même de la nouvelle théorie physique nécessaire en cette première moitié du XXème siècle, ce que nous verrons dans le chapitre III. Mais il convient de s’arrêter sur une découverte tout à fait hétéroclite, encore une fois faîte par Einstein. Dans sa volonté de rendre cohérents tous les concepts physiques nouvellement établis, à savoir le rayonnement du corps noir, la statistique de Maxwell – Boltzmann, et le modèle atomique de Bohr, il découvre en 1917 sur le papier un mécanisme tout à fait singulier : l’émission stimulée. Un électron sur un état excité peut certes être désexcité spontanément pour que le système diminue son énergie, mais il peut l’être aussi sous l’action d’un photon d’énergie adéquate, exactement égale à l’énergie de la transition électronique. Pour satisfaire les lois de conservation, il faut donc qu’un deuxième photon, identique au premier, soit émis. Cette découverte mènera bien plus tard à la réalisation de sources lumineuses monochromatiques très puissantes appelées LASER, dont la première solution technique fut donnée par A. Kastler en 1949. De même cette découverte d’Einstein mènera le groupe d’A. Aspect à réaliser ces fameuses expériences d’intrication quantique en 1982, permettant d’aller plus loin dans la compréhension du monde quantique. Nous reviendrons sur ces aspects plus loin dans le cours. La découverte d’Einstein est tout fait remarquable, le phénomène d’émission stimulée n’était pas nécessaire pour la construction de la théorie, d’autant plus qu’il n’était pas directement observé à l’époque. Mais nous verrons qu’il fait partie inhérente de la nouvelle théorie, même s’il est parfois bien caché. En particulier, ce mécanisme est absolument nécessaire pour rendre compte de la diffraction de particules par un réseau lumineux, ce que voulaient démontrer Kapitza et Dirac dans leur expérience proposée en 1933.
Références :
« La physique du XXe siècle » par Michel Paty, EdP Sciences, collection Sciences et histoires, 2003 livre historique montrant les cheminements des sciences au siècle dernier, ainsi que les problèmes conceptuels et philosophiques engendrés
« Le monde quantique » les dossiers de la Recherche, vol29, novembre 2007
Revue vulgarisée faisant le point sur les avancées actuelles et la compréhension des concepts de la physique quantique, avec une partie historique.
« Niels Bohr : à l'aube de la physique atomique » supplément à la revue Pour la Science, collection Les génies de la science, N°34, février-avril 2008
La vie de Bohr remarquablement condensée et située dans le contexte, truffée d'anecdotes, de photo, d'encarts d'explication. Un vrai régal.